2.2版本发布!TensorFlow推出开发者技能证书
专注于简单性和易用性,大大简化API
方便开发人员使用Keras 和 eager execution 轻松构建模型
提高TensorFlow Lite 和 TensorFlow.js 部署模型的能力
图像模型:图像分类、目标检测、图像增强、图像生成(如风格转换等)
文本模型:问答、文本分类、语法分析等
视频模型:视频动作识别、视频生成等
语音模型:音高识别等
Overview Page:性能概览页面
Input Pipleline Analyzer:输入管道分析
TensorFlow Stats:TensorFlow统计图表
Trace Viewer:追踪查看
4个GPU/TPU专业工具
用标准化的方式表示基本概念,如运算、类型等
创建一个通用的基础设施,构建可以重用的组件
支持自定义和可扩展性
异步、低消耗的方式分发运算和图:TFRT构建了一个不依赖锁的并行图执行器,因此同步所需的额外开销很小。而且,eager op栈非常薄,因此每个eager API调用的额外开销也很小。
可扩展性和模块化:运算、核和设备运行时与宿主运行时解耦合。
eager模式和图执行模式采用统一的构建组件,包括内存分配器、形状函数和核等。
建立机器学习元数据的基础
支持TensorFlow 2.x
建立公平的指标
支持 Native Keras + TensorFlow 2.x
TFLite inTFX
提高模型训练的速度
Google Cloud AI Platform + TFX = Google Clound AI Pipelines
新增四个模型:BodyPix、Toxicity、USE、Speech commands
平台:AutoML,SavedModels,以及在Node.js中直接执行SavedModel
被许多大型应用程序采用,如Uber、Airbnb、微信、抖音等
新增模型:Facemesh、Handtrack、Mobile BERT
平台增强:Web Assembly后端、React Native支持
应用程序:平台用户:Glitch/Codepen
2017年发布的Toxicity v1模型的目的是识别网络语言中的有害信息从而帮助净化网络内容。但是,由于训练数据缺乏多样性,导致模型对于同性恋相关话题会给出很高的有害分数。如果利用这个模型来过滤有害信息,那就会导致同性恋人群在网络上无法发声,导致严重的歧视问题。
如何衡量公平性?
应当采用怎样的训练数据?
◆
原力计划
◆
你点的每个“在看”,我都认真当成了AI